지난달 20일 공개된 중국 AI 모델 '딥시크 R1' <br /> <br />미국이 주도하던 AI 시장을 단숨에 뒤집어 놓았습니다. <br /> <br />오픈AI의 챗GPT, 구글의 제미나이 등 최신 AI 모델과 맞먹는 성능에 개발비용은 현저히 낮은 '가성비'로 큰 주목을 받았습니다. <br /> <br />딥시크가 사용한 GPU는 엔비디아의 고성능 H100이 아닌 저사양 H800 칩 2천여 개로, 개발 비용은 우리 돈 80억 원, 빅테크가 쓴 돈의 10분의 1 수준입니다. <br /> <br />가성비 개발이 가능했던 핵심은 크게 두 가지로, 전문가 혼합 기법 MoE와 정확도 보상입니다. <br /> <br />전문가 혼합 기법은 특정 분야의 여러 전문가가 모여 머리를 맞대 작업하듯, 특화된 LLM 모델 여러 개를 모아 필요에 따라 특정 모델만 활성화하는 방식입니다. <br /> <br />딥시크의 기술보고서에 따르면, R1의 매개변수는 6710억 개지만, 실제 작업에는 340억 개 정도만 선별적으로 사용합니다. <br /> <br />즉, 딥시크는 모든 매개변수를 구동에 쓰지 않아 다른 AI 모델보다 메모리 사용량이 적고 작업 속도가 빠른 겁니다. <br /> <br />딥시크는 또, 지도학습을 거치지 않고 바로 강화학습을 시켜 AI를 고도화했습니다. <br /> <br />직접 학습이 아닌 다른 AI가 훈련시키는 강화 학습을 통해 인건비를 아낀 겁니다. <br /> <br />무엇보다 전문가들은 딥시크가 오픈소스를 사용했다는 점에 주목합니다. <br /> <br />오픈소스를 이용해 개발한 딥시크를 다시 오픈소스에 공개했는데, 이를 통해 전 세계 개발자들이 딥시크 AI를 시험하고 개선하는 등 개발에 참여할 수 있습니다. <br /> <br />[김명주 / AI안전연구소 초대소장 : 이게 오픈 소스라고 그래서 이 AI의 소스 코드를 자기들이 처음부터 개발한 게 아니에요. 이미 공개돼 있는 걸 가져다가 자기들이 이제 변경해서 쓰는 거기 때문에. 우리도 오픈 소스 중심으로 개발을 시작하면 우리도 1~2년 내 그렇게 좋은 성과를 내지 않을까….] <br /> <br />AI 업계에 아직은 절대 강자가 없다는 걸 확인시켜준 딥시크 쇼크. <br /> <br />전문가들은 딥시크로 인해 미국 빅테크를 추격할 가능성이 확인된 만큼 국내 AI 산업계도 우리만의 강점을 발굴해 새로운 발전 방향을 찾아야 한다고 강조했습니다. <br /> <br />YTN 사이언스 권석화입니다. <br /> <br />영상편집ㅣ황유민 <br />그래픽ㅣ이원희 <br />자막뉴스ㅣ최지혜, 이도형 <br /> <br />#YTN자막뉴스 <br /> <br /><br /><br />※ '당신의 제보가 뉴스가 됩니다' <br />[카카오톡] YTN 검색해 채널 추가 <br />[전화] 02-398-8585 <br />[메일] social@ytn.co.kr<br /><br />▶ 기사 원문 : https://www.ytn.co.kr/_ln/0134_202502081025407386<br />▶ 제보 안내 : http://goo.gl/gEvsAL, 모바일앱, social@ytn.co.kr, #2424<br /><br />▣ YTN 데일리모션 채널 구독 : http://goo.gl/oXJWJs<br /><br />[ 한국 뉴스 채널 와이티엔 / Korea News Channel YTN ]